在最近的过去,不同的研究人员提出了新的隐私增强的人脸识别系统,旨在在特征级别隐藏软生物信息。这些作品报告了令人印象深刻的结果,但通常在他们对隐私保护的分析中不考虑具体攻击。在大多数情况下,通过简单的基于机器学习的分类器和维度减少工具的可视化测试这些方案的隐私保护能力。在这项工作中,我们介绍了一个关于基于级别的面部软生物识别隐私 - 增强技术的攻击。攻击基于两个观察:(1)实现高度识别准确性,面部陈述之间的某些相似之处必须保留在其隐私增强版本中; (2)高度相似的面部表示通常来自具有相似软生物识别属性的面部图像。基于这些观察,所提出的攻击将隐私增强的面部表示与具有已知的软生物识别属性的一组隐私增强的面部表示进行了比较。随后,分析了最佳获得的相似度分数以推断攻击隐私增强的面部表示的未知软生物识别属性。也就是说,攻击仅需要一个相对较小的任意面部图像数据库和作为黑盒的隐私增强的人脸识别算法。在实验中,该攻击应用于先前据报道的两种代表性方法,以可靠地隐藏在隐私增强的面部陈述中的性别。结果表明,所呈现的攻击能够规避隐私提升到相当程度,并且能够正确地对性别进行分类,以准确性为分析的隐私增强面部识别系统的准确性高达约90%。
translated by 谷歌翻译